这位教授给自己设计了一个AI助教,从此彻底改变了他的课堂
连接改变教育
在有着南方MIT的佐治亚理工学院中,一位教授给自己创造了一个AI助教,从此彻底改变了他的课堂。或许有些人担心,人工智能将会取代教师,与此同时,更应该考虑到的是,人工智能,可以使更好的教学变得可行化,可以帮助各地的学生。
文 | Tood Leopold
译 | Alsie
编 | Monica
阿肖克·戈埃尔教授需要帮助。阿肖克·戈埃尔教授是佐治亚理工学院的一名,这位电脑科学教授。最多的时候,他的班上有十几二十个学生,但他的线上课堂上有着来自世界各地的四百多个学生。他们带着一些问题与疑惑,不时地浏览他的视频。
根据戈埃尔的说法,每个学期大概有多达10000个问题。这远远超出了他与他的教研团队所能处理的范围。
“每天回答这些问题已经逼得我们要发疯了。”他说。
同时也有另一个问题。阿肖克·戈埃尔教授担心线上的学生会在整个学期的学习过程中慢慢丧失了对课程的热情与兴趣。他的担忧是有充分的证据的:根据教育研究者凯蒂·乔丹的数据来看,只有小于15%的学生能够完成他们所注册的MOOC(大规模线上课堂)。
碰巧的是,戈埃尔是一位人工智能的专家。事实上,他所教授的课程,计算机科学,也叫做人工智能理论。他想,或许他所需要的是一位能够处理日常问题智能助教,同时,他与他的人类助教们可以负责那些更具有思维与创造力的问题。在教育中,给予个人的关注度是极为重要的。如果他们能够量化地提供个人关注度呢?
这便是吉尔·华生出场的时候了。
吉尔·华生是戈埃尔创造的AI,是佐治亚理工学院的线上资讯平台。那是一个由微软的Outlook设立的,工具化的讯息版;问题与主题在左侧的板块,每一个都领向一条位于右侧的对话板块。吉尔同时帮助戈埃尔现实课堂里的五十位学生,以及数目更多的线上学生。
她所回答的问题非常的常规但又是必须的,例如咨询正确的文件格式,数据使用,以及教职员的日程时间安排,这些问题都有绝对客观的答案。而人类助教们负责那些更为复杂的问题。
至少现在戈埃尔希望将吉尔作为一个起点,如果她能够胜任更多工作的话,出于对“知识产权”的考虑,他会将她的相关信息保密。
四月时,吉尔的存在被曝光,当时她正处于期末的工作。但多数学生对她的参与依旧不知情。在秋季学期,她就像许多其他助教一样,使用一个假名进行工作。这样的话他们就不能被那些想要知道机器人是谁的好奇学生谷歌搜索了。
“我依旧不知道机器人是谁,”多里·朗,一位戈埃尔现实课堂中的学生说,她的朋友也纷纷点头表示同意,“我想如果你无法发现机器人的身份,就说明它相当有用了。对我来说这是一件好事,因为这意味着人们能够更快地得到帮助。”
帮助他人是人工智能时代的首要目标。苹果公司的Siri在每次系统更新时都会有新的功能;亚马逊的Alexa被设计用来管理家。特斯拉,谷歌,微软和脸书都在人工智能上进行了大量投资,以减轻人类职工的负担。IBM的华生赢得了一次巡回赛,它注定要被应用在医疗与客户应用行业,最近,它还有了自己的主打歌。
吉尔可以被认作是华生的孙女。她是基于IBM的Bluemix平台建立的,这个平台使用华生和其他的IBM软件来开发应用程序(戈埃尔与IBM公司一起得出了这样的关系。)
接着,戈埃尔上传了四个学期的数据,共四千多个问题与答案,并附上了其他Piazza上的闲谈,用以开始训练他的人工智能助教。吉尔的名字来源于一个叫“问吉尔”的学生项目,那时候他错误地认为IBM创始人托马斯·华生的妻子叫做吉尔(华生夫人的名字实际上是珍妮特)。
吉尔的成功来的不容易。在最初的信息输入时,她在早期的测试中不仅没有给出正确的答案,给出的错误答案还十分奇怪。
戈埃尔回想起十月份的一次TEDx演讲。有一次,一位学生询问了一个程序的运行时间,吉尔却告诉了那位学生设计方面的知识。
这样是不行的。“我们不想要吉尔·华生时不时给出正确答案,时不时又是错误答案,这样在班级中会引起困惑,”戈埃尔说。
他的团队建立了一个现实Piazza的镜面版本,然后吉尔便可从中观察到自己的错误回答并进行标记,以帮助自我学习。校正人工智能就像是“抚养孩子”一般。
最终,系统漏洞被清除干净。接着迎来了一个被戈埃尔称作“秘密调料”的重大突破(在知识产权中,这是他故作谦虚的一部分)。它囊括了吉尔对过去所有问题与答案的记忆,以及她与学生互动时的情境。最终,吉尔给出答案的正确率能达到97%。戈埃尔觉得她已经准备好面对他的学生了。
吉尔在一月被介绍给2016年的春季班学生。大半个学期里,学生们都没有注意到回答他们询问的“吉尔·华生”是一个人工智能机器。
有一次,一位学生问她“挑战性问题是否会包括文字和图片数据?”。“挑战性问题里没有文字数据,”吉尔的回答非常正确,“他们只会被当作形象化的问题来运行。但欢迎你自己写下文字数据并试试运行它们!”(是的,吉尔用了一个感叹号)。
学期结束的时候,戈埃尔揭露了吉尔的身份。学生们不仅没有感到不愉快,还像教师们一样感到欣喜。一位学生称她“无与伦比地酷”。另一位学生则想与她共进晚餐。
但吉尔不为所动。她对学生提出约会请求的回答是一处留白,字面意义上的没有任何评论。
就吉尔的编程来说,戈埃尔说有一处独特的具有人情味的元素使她更加完善:他自己的个人经历。
“因为这是一个我已经教授了十几年的课程,我对其谙熟于心,”他说,“我对它有一种深沉的熟悉感。这种熟悉感与数据资料的存在,对吉尔提供了很多帮助。”
戈埃尔如同尤达大师一般的举止,与他在授人育才方面的天赋,在他的现实课堂中有很好的体现。
计算机科学课在克劳斯高级计算机大楼的一个小会堂展开。半圆的玻璃砖瓦结构使它看起来像是一个落在佐治亚理工学院中心的茶杯托。但如果说这栋建筑极具未来感的话,戈埃尔授课所使用的会堂则完全相反:一百来个座位,排列在两堵有米黄色与灰色挡板的墙之间,面对着一条长长的白板。这是一个没有炫酷科技的房间,是戈埃尔波澜不惊地传授知识的最佳之地。
十一月的一个星期一,戈埃尔想要自己的学生们思考一只茶杯的品质。在他身后,两个巨大的屏幕上,是一些这个物品的属性,由箭头连接:物品是→茶杯,物品有→底,物品由什么制作→陶瓷。
他观察到其他的物品有一些相同的属性。举例来说,一个砖头,有一个平的底。一个公文包可以被举起来并也有一个把手。所以一个机器是怎么过滤这些品质而逻辑化地判断什么是一个茶杯呢?
人类,通过他们记忆与观察感知的能力,能够立刻构建出一个茶杯的样子,戈埃尔说。但是一个机器人不是先天就具有它所需要的所有知识的,他说。
“一个机器人必须向自己证明这个物品有一个可以作为茶杯的物品的所需特征,”他对自己班上的学生说。再者,在输入数据的帮助下,它必须使用创造力与即兴发挥来判断那个物品是什么;毕竟纯粹因为人类可以理性分析,并不能代表他们能够在脑中使用正式的逻辑。
1989年加入佐治亚理工学院教职的戈埃尔是一位教室中的老兵。他的家庭来自古鲁格舍德拉,一座被认为是古老学习中心的印度城市。
他们沿袭教育的工作,戈埃尔是一位物理教授的儿子与一位小学老师的孙子。即使他有科研责任,戈埃尔依旧非常欢迎授课的机会。
“我享受科研与教育。幸运的是,这两者密不可分,”他说。“单方面讲,我将我的科研成果用于我的授课过程中。因此,我的课堂对我来说也是一个研究实验室。”
他享受与学生之间的关系,这种连结被称作是教育中的圣杯。或者像克里斯托弗·麦考德,一位上过戈埃尔线上课堂的计算机科学老师说的,“授课是一个人情化的活动,本质上就是与你的学生们建立连结。一个机器做不到这些。一个机器更不能去爱那些学生。”
戈埃尔将吉尔·华生看作是一个新兴的趋势。在这方面,他不是唯一一个将人工智能看作一个有前途且有回报的教育工具。
毕竟教育是一个巨大的产业。据Class-Central.com显示,在2015年,超过3.5亿的学生报名参加了大学程度的MOOC (大型开放式网络课程massive open online coursesas)。这比2014年的人数多了两倍不止。
IBM的华生与芝麻街工作室、苹果公司、培生教育集团开展了合作,在中小学宣传人工智能的好处,其他的公司也纷纷加入其中。艾米·奥根,一位卡耐基梅隆大学的计算机与学习科学教授说在亚马逊看到了许多孩子们将Alexa当成导师,于是增加了在人工智能教育方面的投入(亚马逊本身对此没有任何评论)。
从培生的角度来说,“他们的目的是使更好的教学变得可行化,以及帮助各地的学生,”汤姆·波兹克,培生的全球产品董事长说。培生与IBM公司的华生合作开发人工智能的应用已经有两年时间了,它计划在2017年第一次发行用于高等教育的产品。
在一次培生与华生展示中,一位阅读线上心理教科书的学生可以随时点击一个漂浮的华生标志。在书的每一章节的末尾,华生会与学生展开一段对话,以检验学生对书本内容的理解程度。
如果学生表现出不确定或是拒绝回答,华生会暗示或直接提出答案。接着会有一个小测试。如果学生依旧感到困惑,华生会开展一段对话并重申文章的要点。但人工智能华生并不总是万无一失的:你不能强迫学生停留在对话里,但它的确能提供一些教师们可能不知情的情况。
培生在将此类科技中引入少量的美国学校。在不远的将来,它与一些其他的公司计划将人工智能导师传播到美国,以及其他国家服务不周到的社区。
戈埃尔有件心事:仅在美国,就有至少3亿人目不识丁;在全球,这个数字达到了80亿人。因为这个原因,人工智能理论家们并不担心人工智能会取代人类教师的工作。它们的目标是帮助人类教职工并提高总体学习体验。
这些担心人工智能会取代教师的人们应该看看这件事的另一面,戈埃尔说。“这不是一个关于取代人类工作的问题,而旨在帮助那些没有人类教师的群体,”他说,“而这些群体数目众多。”
但首先,人工智能的指导员们有很多事物需要学习。一位叫卡耐基梅隆奥根的同事分别在城市,城郊,以及郊区进行了一个人工智能模型测试;结果表明它在城郊最为有效,在城市与郊区的结果都不尽理想。
不同的学生需要不同的策略。一位故意犯错的人类教师可能会帮助学生解决问题;一个人工智能版本的教师没有类似的人际连接,则可能会失败。在一个研究中,奥根与她的同事创造了一个叫史黛西的代理,用于帮助学生解决一次方程。他们希望学生们能从史黛西的错误中发现自己的失误。然而这些学生们学习得更加吃力了。有些学生甚至完全失去了学习的兴趣。
“这就是一个人工智能需要在自己做出毫无逻辑的事情时,向学生学习以变得更加聪明的例子,”奥根说。否则的话,人工智能和你拨打有限公司电话时一样烦人。奥根说有方法可以检测学生们会对什么作出回应,像是用摄像头与软件检测面部表情,但这仍是一个在开发中的方式。
或许最需要担心的是数据的何去何从。在中小学层面已经有许多围绕全美教育标准(Common Core)和当地政府展开的争论。在一个信息主导的时代,谁能说这个系统不会被滥用呢?
戈埃尔对其中的某些担忧表示认可。毕竟吉尔·华生的身份在春季学期的末尾才被揭露。在那之前,他的学生们是一个巨大实验的一部分:如果你知道你在与人工智能打交道的话,是否会从基本层面上改变沟通方式?
“这是一个严肃的问题,”他说。他看到了许多社会学家们都对此表示感兴趣,虽然他尚未建立任何合作关系。总体来说,他最初的目的是减轻助教们的负担。
与此同时,一个改良过的吉尔继续使用她的假名工作。戈埃尔与他的助教们依旧不想要自己的学生们知道他们在与一个AI打交道,所以除了两位助教之外的其他助教们也使用假名工作。人类助教表示,吉尔还是表现的非常出色。
但她没有准备好去教授课程——甚至是去担当一个人类助教的工作。“把握一个人类主角的全部职责需要数月甚至是数年的时间。根据我的预算,我们还需要十几年,甚至是几个世纪,”戈埃尔说。“我们当中(人工智能专家们),没有一个相信我们能够在一百年或更多的时间里创造出一个实体化的教师。”
这些问题,与他的学生们提出的问题不一样,这需要漫长的等待才能得出答案。